AI智能体开发实战:从提示工程转向上下文工程的完整指南
还记得去年各大公司给提示工程师开出30万美元年薪的疯狂时期吗?现在这些招聘信息基本销声匿迹了。从技术角度看,提示工程确实有些"投机取巧"的意味——本质上就是让人们相信自己在做"工程"工作的华丽包装。
还记得去年各大公司给提示工程师开出30万美元年薪的疯狂时期吗?现在这些招聘信息基本销声匿迹了。从技术角度看,提示工程确实有些"投机取巧"的意味——本质上就是让人们相信自己在做"工程"工作的华丽包装。
模型上下文协议 (MCP) 正在改变生成式人工智能,成为连接人工智能代理与企业系统的通用标准。最佳实践包括将服务器视为有界上下文、首选无状态设计、选择正确的传输方式、拥抱启发、构建安全性等。
Transformer 模型从发布至今已经有 8 个年头了,无一例外,现有的 LLM 大语言模型都是基于 Transformer 模型演变而来的,例如 GPT 系列模型,Gemini 系列模型,DeepSeek 系列模型以及Llama系列模型等等,都能看到 T
模型 llm transformer deepseek de 2025-09-17 17:58 6
AI领域从不缺乏颠覆性事件,却极少有一家公司能像Thinking Machines Lab 这样,在成立仅七个月、尚未推出正式产品、甚至没有实际用户的情况下,就以120亿美元(折合人民币850亿元)的估值惊艳全球行业。
论文 mac llm 估值 thinkingmachines 2025-09-17 13:57 5
Python凭借它“人生苦短,我用Python”的潇洒,还有背后庞大的生态库,稳坐AI界的头把交椅,从入门小哥到学术大牛,人人都爱它。而Rust以其“内存安全、零成本抽象、无畏并发”三件法宝,正在受到大公司和开发者们的青睐。
9 月 13 日上午,蚂蚁集团开源团队(「开源技术增长」)携《 2025 大模型开源开发生态全景图 》2.0 版,亮相上海外滩大会。
9月13日上午,蚂蚁集团开源团队(「开源技术增长」)携《2025大模型开源开发生态全景图 》2.0 版,亮相上海外滩大会。
当 GPT-4o 用毫秒级响应处理图文混合指令、Gemini-1.5-Pro 以百万 token 上下文 “消化” 长文档时,行业的目光正从云端算力竞赛转向一个更实际的命题:如何让智能 “落地”?—— 摆脱网络依赖、保护本地隐私、控制硬件成本,让设备真正具备
近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。
过去的几个月里,视频生成迎来了爆发式发展:OpenAI 发布了 Sora,谷歌 DeepMind 推出了 Veo 3,初创公司 Runway 也上线了 Gen-4。这些工具都能生成几乎无法与真实拍摄或 CGI 动画区分的视频片段。与此同时,Netflix 在其
视频 逻辑 llm transformer sora 2025-09-16 19:33 5
最近帮朋友调试他做的LLM智能体时,发现一个挺普遍的问题,他给智能体装了十多个工具,可智能体要么不用,要么用错,好好的功能愣是发挥不出来。
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm 轮次 scalinglaw 2025-09-16 15:24 5
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:29 3
人类的大脑,会在梦里筛选记忆。如今,AI也开始学会在「睡眠」中整理、保存,甚至遗忘。Bilt部署数百万智能体,让科幻小说里的设问——「仿生人会梦见电子羊吗?」——逐步成真。那么,当AI也能选择忘记时,它会变得更像人,还是更陌生?
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:08 6
很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一
智能体 研究 llm scaling scalinglaw 2025-09-16 14:10 4
最好的方法之一就是使用链接插入。它们提供了大量独特的优势,可以提升你的整体SEO:
本周刊由 Python猫 出品,精心筛选国内外的 400+ 信息源,为你挑选最值得分享的文章、教程、开源项目、软件工具、播客和视频、热门话题等内容。愿景:帮助所有读者精进 Python 技术,并增长职业和副业的收入。
这事儿得回到两周前,彼时我刚入职,正兴致勃勃地想接下来会做些什么,周会上说到新需求的进展遇到了一个小问题——面临上百个开源应用的k8s部署适配,TL表示现在啊,AI提效是关键,“咱们能不能搞个AI?”“就给它一个开源应用,它一下自己部署全了。”
从“语言模型”到“类人智能”,ChatGPT的爆火背后,是大语言模型技术的飞跃与演进。本文将带你穿越技术迷雾,从基础原理、模型训练到产业落地,系统梳理LLM的发展路径与关键节点。